37 research outputs found

    Finding the pitfalls in query performance

    Get PDF
    Despite their popularity, database benchmarks only highlight a small part of the capabilities of any given system. They do not necessarily highlight problematic components encountered in real life or provide hints for further research and engineering.In this paper we introduce discriminative performance benchmarking, which aids in exploring a larger search space to find performance outliers and their underlying cause. The approach is based on deriving a domain specific language from a sample query to identify a query workload. SQLscalpel subsequently explores the space using query morphing, and simulated annealing to find performance outliers, and the query components responsible. To speedup the exploration for often time-consuming experiments SQLscalpel has been designed to run asynchronously on a large cluster of machines.</p

    SQALPEL: A database performance platform

    Get PDF
    Despite their popularity, database benchmarks only highlight a small fraction of the capabilities of any given DBMS. They often do not highlight problematic components encountered in real life database applications or provide hints for further research and engineering. To alleviate this problem we coined discriminative performance benchmarking as the way to go. It aids in exploring a larger query search space to find performance outliers and their underlying cause. The approach is based on deriving a domain specific language from a sample complex query to identify and execute a query workload. The demo illustrates sqalpel, a complete platform to collect, manage and selectively disseminate performance facts, that enables repeatability studies, and economy of scale by sharing performance experiences

    A spatial column-store to triangulate the Netherlands on the fly

    Get PDF
    3D digital city models, important for urban planning, are currently constructed from massive point clouds obtained through airborne LiDAR (Light Detection and Ranging). They are semantically enriched with information obtained from auxiliary GIS data like Cadastral data which contains information about the boundaries of properties, road networks, rivers, lakes etc. Technical advances in the LiDAR data acquisition systems made possible the rapid acquisition of high resolution topographical information for an entire country. Such data sets are now reaching the trillion points barrier. To cope with this data deluge and provide up-to-date 3D digital city models on demand current geospatial management strategies should be re-thought. This work presents a column-oriented Spatial Database Management System which provides in-situ data access, effective data skipping, efficient spatial operations, and interactive data visualization. Its efficiency and scalability is demonstrated using a dense LiDAR scan of The Netherlands consisting of 640 billion points and the latest Cadastral information, and compared with PostGIS

    Segmentation using graph cuts applied to change detection

    No full text
    During the past few years, there has been an explosion of the amount of the digitally stored visual information, due to the advances in the fields of communication technology and computer science. This fact intensifies the need for efficient coding, retrieval and transmission of this information. New video coding standards such as MPEG­4 and MPEG­7 make progress towards this direction. One key step in these standards is the segmentation of the images that consist the video, that is the partition of the image into disjoint sets of pixels that, hopefully, each corresponds to an object in the depicted scene. In this thesis we studied a recent class of segmentation algorithms based on energy minimization. The main idea is to construct a weighted graph where each vertex corresponds to a pixel in the image, and the edges are defined between neighboring pixels. The weights of each edge are carefully chosen so that, a minimum cut on the graph provides the minimum of the energy function and thus the partition we seek. We examined whether it is possible to extend these algorithms, in order to construct the graph with vertices that correspond to relatively small image segments that come from a preprocessing step. This reduces the running time and results in a more robust algorithm. We applied the extended algorithm to image sequences based on data from change detection, seeking a partition into two classes: static and mobile segments and the results are promising.Τα τελευταία χρόνια παρατηρείται μια εκρηκτική αύξηση της ψηφιακά αποθηκευμένης οπτικής πληροφορίας, οφειλόμενη στην πρόοδο της τεχνολογίας επικοινωνιών και της επιστήμης υπολογιστών. Το γεγονός αυτό εντείνει την ανάγκη για αποδοτική κωδικοποίηση, ανάκτηση και μετάδοση της πληροφορίας αυτής. Νέα πρότυπα για την κωδικοποίηση ακολουθιών εικόνων, όπως το MPEG-4 και το MPEG-7, έχουν προχωρήσει προς αυτή την κατεύθυνση. Ένα από τα βασικά βήματα αυτών των προτύπων είναι η τμηματοποίηση των εικόνων, οι οποίες αποτελούν την ακολουθία, δηλαδή η διαμέρισή τους σε ξένα σύνολα από εικονοστοιχεία, καθένα από τα οποία επιδιώκουμε να αντιστοιχεί σε ένα αντικείμενο της απεικονιζόμενης σκηνής. Στην εργασία αυτή μελετήσαμε μια πρόσφατη κατηγορία αλγορίθμων τμηματοποίησης, που βασίζεται σε ελαχιστοποίηση ενέργειας. Η βασική ιδέα είναι να κατασκευαστεί ένα βεβαρημένος γράφος στον οποίο κάθε κόμβος αντιστοιχεί σε ένα εικονοστοιχείο της εικόνας, και οι ακμές ορίζονται μεταξύ γειτονικών εικονοστοιχείων. Τα βάρη σε κάθε ακμή επιλέγονται με τέτοιο τρόπο ώστε μία ελάχιστη τομή στο γράφο δίνει το ελάχιστο της συνάρτησης ενέργειας και συνεπώς και τη διαμέριση την οποία ζητάμε. Εξετάσαμε εάν είναι δυνατό να επεκτείνουμε τους αλγορίθμους αυτούς, έτσι ώστε να κατασκευάσουμε το γράφο με κόμβους που αντιστοιχούν σε, σχετικά μικρά, τμήματα της εικόνας, τα οποία προκύπτουν από ένα βήμα προεπεξεργασίας. Η διαδικασία αυτή μειώνει το χρόνο εκτέλεσης και κάνει τον αλγόριθμο πιο εύρωστο. Εφαρμόσαμε τον επεκτεταμένο αλγόριθμο σε ακολουθίες εικόνων με δεδομένα από μία διαδικασία ανίχνευσης κίνησης, αναζητώντας μία διαμέριση σε δύο κατηγορίες: στατικά και κινούμενα τμήματα και τα αποτελέσματα είναι ενθαρρυντικά

    Segmentation using graph cuts applied to change detection

    No full text
    During the past few years, there has been an explosion of the amount of the digitally stored visual information, due to the advances in the fields of communication technology and computer science. This fact intensifies the need for efficient coding, retrieval and transmission of this information. New video coding standards such as MPEG­4 and MPEG­7 make progress towards this direction. One key step in these standards is the segmentation of the images that consist the video, that is the partition of the image into disjoint sets of pixels that, hopefully, each corresponds to an object in the depicted scene. In this thesis we studied a recent class of segmentation algorithms based on energy minimization. The main idea is to construct a weighted graph where each vertex corresponds to a pixel in the image, and the edges are defined between neighboring pixels. The weights of each edge are carefully chosen so that, a minimum cut on the graph provides the minimum of the energy function and thus the partition we seek. We examined whether it is possible to extend these algorithms, in order to construct the graph with vertices that correspond to relatively small image segments that come from a preprocessing step. This reduces the running time and results in a more robust algorithm. We applied the extended algorithm to image sequences based on data from change detection, seeking a partition into two classes: static and mobile segments and the results are promising.Τα τελευταία χρόνια παρατηρείται μια εκρηκτική αύξηση της ψηφιακά αποθηκευμένης οπτικής πληροφορίας, οφειλόμενη στην πρόοδο της τεχνολογίας επικοινωνιών και της επιστήμης υπολογιστών. Το γεγονός αυτό εντείνει την ανάγκη για αποδοτική κωδικοποίηση, ανάκτηση και μετάδοση της πληροφορίας αυτής. Νέα πρότυπα για την κωδικοποίηση ακολουθιών εικόνων, όπως το MPEG-4 και το MPEG-7, έχουν προχωρήσει προς αυτή την κατεύθυνση. Ένα από τα βασικά βήματα αυτών των προτύπων είναι η τμηματοποίηση των εικόνων, οι οποίες αποτελούν την ακολουθία, δηλαδή η διαμέρισή τους σε ξένα σύνολα από εικονοστοιχεία, καθένα από τα οποία επιδιώκουμε να αντιστοιχεί σε ένα αντικείμενο της απεικονιζόμενης σκηνής. Στην εργασία αυτή μελετήσαμε μια πρόσφατη κατηγορία αλγορίθμων τμηματοποίησης, που βασίζεται σε ελαχιστοποίηση ενέργειας. Η βασική ιδέα είναι να κατασκευαστεί ένα βεβαρημένος γράφος στον οποίο κάθε κόμβος αντιστοιχεί σε ένα εικονοστοιχείο της εικόνας, και οι ακμές ορίζονται μεταξύ γειτονικών εικονοστοιχείων. Τα βάρη σε κάθε ακμή επιλέγονται με τέτοιο τρόπο ώστε μία ελάχιστη τομή στο γράφο δίνει το ελάχιστο της συνάρτησης ενέργειας και συνεπώς και τη διαμέριση την οποία ζητάμε. Εξετάσαμε εάν είναι δυνατό να επεκτείνουμε τους αλγορίθμους αυτούς, έτσι ώστε να κατασκευάσουμε το γράφο με κόμβους που αντιστοιχούν σε, σχετικά μικρά, τμήματα της εικόνας, τα οποία προκύπτουν από ένα βήμα προεπεξεργασίας. Η διαδικασία αυτή μειώνει το χρόνο εκτέλεσης και κάνει τον αλγόριθμο πιο εύρωστο. Εφαρμόσαμε τον επεκτεταμένο αλγόριθμο σε ακολουθίες εικόνων με δεδομένα από μία διαδικασία ανίχνευσης κίνησης, αναζητώντας μία διαμέριση σε δύο κατηγορίες: στατικά και κινούμενα τμήματα και τα αποτελέσματα είναι ενθαρρυντικά

    Random Exploration of the Procedural Space for Single-View 3D Modeling of Buildings

    No full text
    International audienceIn this paper we tackle the problem of 3D modeling for urban environment using a modular, flexible and powerful approach driven from procedural generation. To this end, typologies of architectures are modeled through shape grammars that consist of a set of derivation rules and a set of shape/dictionary elements. Appearance (from statistical point of view with respect to the individual pixel's properties) of the dictionary elements is then learned using a set of training images. Image classifiers are trained towards recovering image support with respect to the semantics. Then, given a new image and the corresponding footprint, the modeling problem is formulated as a search of the space of shapes, that can be generated on-the-fly by deriving the grammar on the input axiom. Defining an image-based score function for the produced instances using the trained classifiers, the best rules are selected, making sure that we keep exploring the space by allowing some rules to be randomly selected. New rules are then generated by resampling around the selected rules. At the finest level, these rules define the 3D model of the building. Promising results on complex and varying architectural styles demonstrate the potential of the presented method

    Segmentation of Building Facades Using Procedural Shape Priors

    No full text
    In this paper we propose a novel approach to the perceptual interpretation of building facades that combines shape grammars, supervised classification and random walks. Procedural modeling is used to model the geometric and the photometric variation of buildings. This is fused with visual classification techniques (randomized forests) that provide a crude probabilistic interpretation of the observation space in order to measure the appropriateness of a procedural generation with respect to the image. A random exploration of the grammar space is used to optimize the sequence of derivation rules towards a semantico-geometric interpretation of the observations. Experiments conducted on complex architecture facades with ground truth validate the approach

    SQALPEL: A database performance platform

    No full text
    Despite their popularity, database benchmarks only highlight a small fraction of the capabilities of any given DBMS. They often do not highlight problematic components encountered in real life database applications or provide hints for further research and engineering. To alleviate this problem we coined discriminative performance benchmarking as the way to go. It aids in exploring a larger query search space to find performance outliers and their underlying cause. The approach is based on deriving a domain specific language from a sample complex query to identify and execute a query workload. The demo illustrates sqalpel, a complete platform to collect, manage and selectively disseminate performance facts, that enables repeatability studies, and economy of scale by sharing performance experiences
    corecore